Reading Time: 1 minutes

トップヒントは、最新のテクノロジー業界のトレンドを探るコラムです。今回は、アーティストが自分の作品を生成AIモデルのトレーニングに使用されないようにする方法についてお話しします。

AI画像生成ツールは、驚異的な技術です。簡単なテキストプロンプトを入力するだけで、わずか数秒でアート作品を完成させてしまいます。ツールの出力は時折少し粗削りなこともありますが、この技術はここ数年で急速に進化し、AIが生成するビジュアルメディアは、人間が作成したコンテンツと見分けがつかないほどの精度に達しています。
しかし、この急速な発展は、非常に複雑な機械学習(ML)アルゴリズムに基づいていますが、トレーニングデータはどこから来るのでしょうか?多くの場合、それは人間のアーティストが作成した既存のアートワークであり、特に著作権で保護された作品から取得されています。
生成AI(GenAI)の登場は、著作権に関する問題やフェアユースを巡る議論のパンドラの箱を開けてしまいました。実際、OpenAI社Stability AI社のような企業は、トレーニングデータに著作権で保護された素材を使用しているとして訴えられています。しかし、著作権で保護された作品をAIのトレーニングに使用することを明示的に禁止する法律がないため、これらの企業はフェアユースを主張し、使用を続けています。特に、ツールが特定のアーティストのスタイルを完全に再現する場合に問題が生じているようです。
上記の背景を踏まえ、AIツールのアルゴリズムから自分の作品を守るための4つの方法をご紹介します。

1.AIトレーニングからのオプトアウト

ほとんどのAIプロバイダーは、トレーニングデータからのオプトアウトを許可しています。オプトアウトするには、プロバイダーにメールを送るか、専用のフォームに記入します。例えば、OpenAI社では、フォームを介して、AIモデルのトレーニングに使用されたくない作品を設定できます。しかし、この場合、クリエーターはトレーニングデータセットから除外したいすべてのアートワークをフォームに入力する必要があり、広範なアートワークのコレクションを持っている場合、非常に手間がかかる作業となります。
そのため、特定の画像ホスティングプラットフォームに作品をアップロードする前に、必ずリサーチを行ってください。アップロード後にAIトレーニングからオプトアウトできないプラットフォームもあります。例えば、Adobe社はAdobe Stockの画像を使用してFireflyという生成モデルをトレーニングしているため、Fireflyのトレーニングに自分の作品を使用されたくない場合、Adobe Stockに作品をアップロードしないように設定します。

2.アドバーサリアル・エグザンプル

アドバーサリアル・エグザンプルは、AIモデルを混乱させるためにアートワークにノイズを追加する反トレーニングアプローチです。「ノイズ」とは、機械学習(ML)モデルの画像認識能力を妨げるための微細な乱れや視覚的なアーティファクトを指します。これらの乱れは肉眼では見えませんが、AIには検出され、ツールがアートワーク独自の特徴を識別し、スタイルの再現を難しくします。
現在、よく利用されている効果的な反トレーニングツールには、シカゴ大学チームが開発したGlazeNightshadeの2つがあります。GlazeはAIを混乱させることに焦点を当てたシンプルな画像クロークツールで、Nightshadeはさらに一歩進んだデータポイズニングツールです。データポイズニングツールとは、AIモデルがあなたのアートワークを全く異なるものとして誤分類するようにノイズを導入し、最終的にはモデル全体の出力に悪影響を与えるツールです。

3.作品の誤ったラベル付け

生成AIに対する積極的な対策の一つとして、作品に誤ったラベルを付ける方法があります。トレーニングデータには大量のデータが関わるため、各画像が目的に沿った内容であるかを確認することは困難です。ほとんどのAIモデルは、元のアーティストが付けたタグに依存してアートワークを分類する仕組みのため、トレーニングでの作品使用を防ぐ簡単な方法として、誤解を招くタグを作品に付け、MLアルゴリズムが適用できないようにします。ただし、注意点として、作品の誤ったラベル付けはSEOランキングに悪影響を及ぼす可能性があることを忘れないでください。

4.法的措置を取る

既に述べたように、著作権で保護されたコンテンツをAIモデルのトレーニングに使用することは、現在フェアユースの下で保護されています。しかし、これらのモデルがあなたの作品を再現し、あなたのスタイルを模倣する場合、著作権侵害として訴えることができる可能性がでてきます。ただし、AI生成のアートワークがあなたのオリジナル作品と実質的に類似していることを証明する必要があることを忘れないでください。
AIプロバイダーがアーティストや作家の作品を模倣したとして著作権侵害で訴えられた例として、前述で記載したように、OpenAI社やStability AI社のケースが挙げられます。

 

生成AIと著作権に関する法律の現状と課題

現在、生成AIと著作権に関する法律は非常に曖昧で不明確です。生成AIが著作権コンテンツに関する議論を大きく変えたため、立法者はフェアユースを規定するルールと基準をより明確に定義する必要があります。現在、生成AI分野の大手企業に対するいくつかの訴訟が進行中であり、これらの訴訟結果から、生成AIと著作権コンテンツの関係およびフェアユースの限界を見定めることができるでしょう。生成AIの発展により、著作権法に大きな変化がもたらされる可能性もありますが、それまではアーティスト自らが自分の作品が無断で使用されないように対策を講じていく必要があります。

 

本記事はグローバル本社のブログ記事を日本版に修正したものです。
原文はこちらをご参照ください。


フィードバックフォーム

当サイトで検証してほしいこと、記事にしてほしい題材などありましたら、以下のフィードバックフォームよりお気軽にお知らせください。